MENTAL, UN ESTÁNDAR
ABIERTO UNIVERSAL

“Los estándares deben centrarse en lo que denominamos ‘las grandes ideas’” (Christopher T. Cross)

“Solo sobrevivirán los estándares útiles” (Stephen Fosket)



Los Estándares

El concepto de estándar

Se denomina “estándar” −en inglés, “standard”− a algo que se considera el modelo, norma, patrón o referencia a seguir en un determinado dominio. Las propiedades asociadas a los estándares son:
La importancia de los estándares

Los estándares permiten que el mundo funcione coherentemente y de manera más eficiente. Si los estándares no existieran, lo más probable es que todo fuera un caos, un desorden total. Los estándares incentivan el progreso de la sociedad, la ciencia y la industria.

Los estándares están por todos lados y nos beneficiamos de ellos sin apenas darnos cuenta. Ejemplos destacados son:
  1. Las señales de tráfico, que son las mismas en todo el mundo.

  2. El sistema internacional de unidades. Heredero del antiguo sistema métrico decimal, es el sistema de unidades que se usa en casi todos los países. Permite el intercambio de datos científicos, culturales, comerciales, etc. Antes, cada país −a veces, incluso cada región− tenía su propio sistema de unidades.

    Contempla 7 unidades físicas básicas: metro (longitud), kilogramo (masa), segundo (tiempo), amperio (intensidad de corriente eléctrica), kelvin (temperatura), candela (intensidad luminosa) y mol (cantidad de sustancia). De las unidades básicas existen múltiplos y submúltiplos de 10, que se expresan mediante prefijos (como deca, hecto, kilo, mili, giga, tera, etc.). Anteriormente las unidades se dividían en 3, 12, 16, ... partes, lo que dificultaba las operaciones aritméticas. Lavoisier llegó a afirmar que “Nada más grande ni más sublime ha salido de las manos del hombre que el sistema métrico decimal”.

  3. La codificación numérica posicional, un estándar considerado el mayor logro de la civilización.

Tipos de estándares

Podemos distinguir los siguientes tipos:
Los Estándares en Matemática

No existen estándares oficiales en matemática porque esta disciplina se considera un lenguaje abierto en el que se puede expresar formalmente cualquier concepto abstracto siempre que se explique su significado. No obstante:
El sistema decimal de representación numérica

El sistema posicional más antiguo conocido en la historia es el sistema sexagesimal (de base 60) o sistema Babilónico (cerca de 1800 a.C). El actual sistema de representación numérica basado en potencias de 10 es considerado como uno de los mayores avances de la humanidad a lo largo de su historia.

Tras este sistema está el principio de reflexión conceptual, es decir, un concepto que se aplica a sí mismo, (concepto de concepto), que es un mecanismo esencial de la conciencia. A partir de la unidad (concepto de orden 0), se tienen 10 unidades (concepto de orden 1), 10 unidades de 10 unidades (concepto de orden 2), etc. Cada vez que hacemos referencia a un número, estamos sintonizando (consciente o inconscientemente) con el mecanismo universal de la reflexividad conceptual.

El principio posicional dio lugar al concepto de “cero”, sin el cual no existiría el concepto de número negativo ni los números imaginarios. No obstante, el cero ya fue descubierto por la civilización maya unos 600 años antes de su aparición en la India, y lo representaban con una concha.

El sistema de numeración posicional de base 10 fue inventado en India hacia el año 450 de nuestra era. Por haber sido difundido por los árabes, se le denomina “sistema indo-arábigo”. En Europa fue introducido hacia el año 1000 de nuestra era, aunque debido a cierta resistencia pasaron varios siglos hasta su uso generalizado. La resistencia provenía de los contables, que no querían que su adopción trastornase a los clérigos, que consideraban el sistema como “diabólico”, por su origen arábigo.

El italiano Fibonacci (Leonardo de Pisa) fue el principal divulgador del sistema posicional. Pasó una larga temporada en Bujía, cerca de Argel, donde su padre era empleado de aduana. Allí aprendió el sistema de numeración y tomo conciencia de sus grandes ventajas, principalmente para simplificar los cálculos. De vuelta a Italia, publicó en 1202 el tratado “Liber Abaci” (Libro del Ábaco).

Un dato curioso es que Fibonnacci mantuvo el orden de los dígitos según la escritura árabe, es decir, de derecha a izquierda. También es curioso que Fibonacci llamara “Libro del Ábaco” a un libro que intentaba acabar con dicho instrumento de cálculo manual. Lo hizo para disimular su contenido, pues sabía que los poderosos abaquistas-calculistas de entonces se opondrían. Y, en efecto, cuando se conoció su contenido, produjo malestar entre ellos, pues vieron que peligrara su oficio.

Los cristianos europeos y las autoridades católicas estaban tan apegados a sus arcaicos sistemas, así como la resistencia de los calculadores profesionales (clérigos en su mayoría) a novedades, que hubo que esperar siglos para su implantación y divulgación. La Iglesia no hizo nada para favorecer la democratización del cálculo porque ello implicaba la pérdida del monopolio en materia de enseñanza y la consiguiente disminución de su poder e influencia.

Disputa entre un abacista
y un algorista
(Margarita Philosophica, 1508)

El libro de Fibonacci no consiguió difundirse plenamente por Europa hasta finales del siglo XVI por tres razones: 1) El libro no era “oficial”, pues estaba concebido fuera de los círculos académicos; 2) Encontró una fuerte oposición por el sentido de la escritura de los dígitos, hasta que finalmente fue aceptado; 3) La oposición de los calculistas.

El nuevo sistema reemplazó al sistema de representación romano que se usaba en la Europa de ese tiempo. El sistema romano no permitía realizar operaciones complejas. Era fácil sumar y restar, pero para la multiplicación y la división había que recurrir a calculistas-abaquistas profesionales. Las cifras romanas (I, V, X, L, C, D y M) tenían valor absoluto, un valor por sí mismas, y no existía el cero.

La invención y la democratización de la numeración posicional han tenido consecuencias incalculables en la sociedad humana, facilitando el desarrollo de la ciencia y la técnica, y ha permitido la mecanización del cálculo aritmético y del matemático en general.

No ha habido una “Torre de Babel” de los números. Mientras existen más de 4.000 lenguas y varias decenas de alfabetos y sistemas de escritura, en la actualidad no hay más que un único sistema de representación numérica. Es una especie de Esperanto numérico.


Teorías de conjuntos no-estándar

Ha habido teorías alternativas al estándar ZFC de la teoría de conjuntos. Los más destacados son:
Los Estándares en Informática

En informática, un estándar se define como un conjuntos de reglas normalizadas que describen los requisitos que debe cumplir un producto o servicio, con el objetivo de establecer un mecanismo base para que distintos elementos (hardware o software) que lo utilicen sean compatibles entre sí.

El problema de los estándares a la hora de comunicar información es tan antiguo como la propia civilización. El hecho de que Internet se haya convertido en una plataforma digital a la que acceden e interactúan millones de personas, hacen que los estándares de Internet cobren una importancia decisiva. La web se ha convertido en el espacio global y en el sistema operativo global, y la estandarización se ha volcado sobre la web, por su importancia y trascendencia. Desde 1996 se han creado más de 100 estándares.

Una tecnología en desarrollo y de mucho futuro es el Cloud Computing (computación en la nube). Es un nuevo paradigma que permite ofrecer servicios de computación a través de Internet. La nube es la metáfora de Internet. Pero hay dos problemas que están limitando su adopción: la falta de interoperabilidad y los riesgos de seguridad. “Ahora no se pueden intercambiar cosas entre nubes y eso tiene que cambiar” (Vinton Cerf). Vinton Cerf es considerado uno de los “padres” de Internet e inventor del protocolo TCP/IP (Transmission Control Protocol/Internet Protocol).

Actualmente, el objetivo es elevar el nivel semántico: pasar de la información al conocimiento, de la sintaxis (pura forma) a la semántica (el significado). Desde hace años se persigue la denominada “Web Semántica”: con relaciones semánticas, búsquedas semánticas, utilización de ontologías (conjunto de conceptos y relaciones entre ellos), con el objetivo de lograr la interoperabilidad semántica.

No se ha logrado hasta ahora una codificación estándar para la representación de todo tipo de datos, informaciones y conocimientos, así como sus niveles meta, empezando por más básico, que es la falta de un sistema operativo estándar. De lograr una codificación universal para ello, como se hizo con los números, supondría un enorme salto conceptual y evolutivo para la humanidad.


Interfaz

En general, un interfaz −en inglés, “interface”− es un sistema formal que facilita y simplifica la comunicación entre un usuario y un sistema, o entre dos sistemas (o entre dos componentes de un sistema).

En Informática, se denomina API (Application Programming Interface) al interfaz de programación de aplicaciones: un conjunto o biblioteca de funciones (en programación funcional), procedimientos (en programación imperativa) o métodos (en programación orientada a objetos) que constituyen una capa de abstracción para ser utilizada por otro software para el desarrollo de aplicaciones. Casi todos los programas dependen de las APIs del sistema operativo subyacente para realizar las funciones básicas, como por ejemplo, acceder al sistema de gestión de ficheros.

Las ventajas de los APIs son: Y las desventajas:
Sistema abierto

El término “sistema abierto” surgió a finales de los años 1970s y principios de los 1980s para referirse principalmente a los sistemas Unix, en contraste con los ordenadores tipo mainframe de la época. Los sistema Unix incluían unas interfazes estándares para programación y para conexión a periféricos, que facilitaban el desarrollo de hardware y software por parte de terceros.

La definición de “sistema abierto” se hizo más formal en los años 1990s con el auge de los estándares de software de la Single Unix Specification (SUS, Especificación Única de Unix), que establecen los requisitos para que un sistema pueda calificarse como sistema Unix. Las SUS están desarrolladas y son mantenidas por el Austin Group, basado en el anterior trabajo del IEEE y The Open Group (anteriormente, X/Open).


Estándares de facto

Ejemplos de estándares de facto son: Hay estándares “de facto” que se han convertido en estándares oficiales (de jure), como: Hay estándares “de facto” que no se han convertido en estándares oficiales, como:
Objetivo de los estándares

Los estándares persiguen −o deben perseguir− varios objetivos específicos: Objetivos genéricos son: conseguir simplicidad, claridad, eficiencia, calidad, seguridad, economía, facilidad de implementación y que facilite la creatividad. Destacamos dos en especial:
Los problemas de los estándares

Los estándares adolecen de problemas. Entre ellos están los siguientes:
Estándares abiertos y cerrados

Un estándar abierto −también denominado “formato abierto”− es una especificación disponible públicamente que describe un tipo o categoría de elementos y que está patrocinado y mantenido por una organización de estándares abiertos. Cualquiera pueden obtener e implementar el estándar, sin restricciones legales ni económicas. Los sistemas abiertos vinculan a fabricantes, vendedores, desarrolladores y usuarios.

Lo común es que sobre unos estándares abiertos se edifiquen otros. Es el caso de los estándares más comunes de Internet, en donde el estándar XML es el fundamento de otros estándares (RDF, XHTML, ODF, OOXML, etc.).

Los estándares de jure suelen ser abiertos, es decir, que su especificación se ha hecho pública. En cambio, los estándares de facto pueden ser abiertos o cerrados.

Un estándar cerrado o no-abierto es de carácter privado o propietario. En los estándares cerrados no se conocen públicamente las especificaciones y los propietarios puede imponer tasas o restricciones de uso.

Hoy día, la Web se ha convertido en el estándar abierto universal. “La decisión de hacer la Web un sistema abierto fue necesario para que fuera universal. No se puede proponer que algo sea un espacio universal y al mismo tiempo tenerlo bajo control” (Tim Berners-Lee).


Software libre

GNU es un sistema operativo completo libre de restricciones de uso de su código fuente. Sus siglas hacen referencia a sí mismo: “GNU is not Unix”. El proyecto GNU fue iniciado por Richard Stallman en 1981, que poco después acuñó el término “free software” (software libre) y para promoverlo creó la Free Software Foundation (FSF). “La única manera de ser libre es rechazar los programas propietarios” (Richard Stallman).

En 1984 se publicó la primera versión de la licencia pública general (General Public License, GPL) de GNU, orientada a proteger la libre distribución, modificación y uso del software.

El software libre es un software que, una vez obtenido, puede ser usado, copiado, modificado y distribuido sin restricciones. Lo controla y gestiona la FSF. El software libre suele estar disponible gratuitamente o al precio de costo de la distribución.

Stallman introdujo también el concepto de “copyleft” para otorgar libertad (de uso, modificación y distribución) a los usuarios y para restringir las posibilidades de apropiación de software. El titular de los derechos de autor (copyright) bajo licencia copyleft puede realizar también una versión modificada bajo su copyright original y venderla bajo cualquier licencia que desee, es decir, de distribuir la versión original como software libre.

Símbolos de Copyleft
y Copyright

Bajo los términos de la Licencia Pública General de GNU (versión 2), Linus Torvalds −cuando tenía 21 años y era estudiante de informática− desarrolló en C el núcleo Linux. GNU/Linux es la combinación del sistema operativo GNU y del núcleo Linux, desarrollado con la ayuda de programadores de todo el mundo. Linux fue el primer sistema operativo de software libre.

Como “free” significa en inglés gratuito o libre, “free software” no debe confundirse con software gratuito (que suele incluir el código fuente) ni con software de dominio público (que no requiere licencia alguna).

Aparte de Linux, otros ejemplos de software libre son: StarOffice, X (sistema de ventanas) y Open JDK (Java Development Kit).


Código abierto

La Open Source Initiative (OSI) nació en 1998 para difundir los principios del código abierto, de la mano de algunos usuarios de la comunidad Free Software, para referirse a que el código fuente de los programas puede ser modificado previa autorización. Pero los principios entre Free Software y Open Source son equivalentes y reconocen los mismos tipos de licencias.

La diferencia principal entre Open Source y Free Software es que el primero se basa únicamente en los aspectos técnicos y en la mejora continua del software, y el segundo tiene en cuenta los aspectos éticos y filosóficos de la libertad.

Algunos programas de código abierto son:
MENTAL, Estándar Universal

El enfoque de la solución

Dada la diversidad de estándares, con su correspondiente mar de siglas, es lícito preguntarse por la posibilidad de un estándar universal, de la misma manera que se plantea el tema del lenguaje universal respecto a la diversidad de lenguajes particulares.

El definir un estándar universal o “madre” de todos los estándares es de una importancia capital. La importancia de disponer de un estándar universal puede compararse a lo que supuso en su día la notación posicional en los números. En un informe presentado al Banco Mundial el 9 de Septiembre de 2005, 13 países urgían a las naciones a adoptar estándares abiertos de tecnología de la información como un paso vital para acelerar el crecimiento económico, la eficiencia y la innovación. La innovación en informática se produce con mucha mayor velocidad que en cualquier otro campo. Los estándares permiten acelerar la innovación.

Hasta ahora no había sido posible definir un estándar universal porque no se tenía claro cuales eran los fundamentos de la informática. Con MENTAL se aclara esos fundamentos, que son esencialmente simples: los arquetipos de la conciencia, que constituyen un sistema operativo de tipo mental (o conceptual) y el fundamento de todo sistema operativo físico.

Debe haber dos tipos de estándar:
  1. Uno profundo, de base semántica, fijo, incuestionable y universal. Debe ser simple y estar estructurado como lenguaje que contemple los opuestos: genérico y específico, operativo y descriptivo, etc.

  2. Varios superficiales, de tipo formal, basados en el estándar profundo. Son de tipo genérico y pueden adoptar muchas formas posibles. Son los equivalentes a, por ejemplo, XML Schema o RDF Schema. Todos estos estándares superficiales están conectados a través del estándar profundo, son manifestaciones de este estándar profundo.
El único estándar considerado universal es XML, pues muchos otros estándares, principalmente de la Web, se basan en él. Pero XML no es un lenguaje en sí mismo. Es un sistema sintáctico para representar estructuras jerárquicas de información mediante etiquetas con valores, pero con muchas limitaciones expresivas.

XML se está aplicando actualmente para la especificación de todo tipo de estructuras de información. Se trata de una línea equivocada, pues pretender utilizar XML “para todo” conduce a una incoherencia similar a pretender en POO (Programación Orientada a Objetos) que “todo es un objeto”. Hay que tener en cuenta que primero es la semántica y luego la sintaxis, que debe ser lo más sencilla, legible y adecuada posible y que evoque la semántica asociada.


MENTAL, la respuesta al problema de los estándares

Tenemos las siguientes características: En definitiva, la adopción de MENTAL como estándar supone el retorno a la sencillez, a la simplicidad radical, al sentido común: su impacto sería enorme porque está presente en todos los dominios, lo que permitiría acelerar el progreso de la ciencia, la técnica y la sociedad en general.


XML y MENTAL

XML es un estándar que ha alcanzado un enorme éxito por su sencillez. Se ha convertido en un lenguaje universal (o metalenguaje) sobre el que se apoyan otros estándares. XML es un estándar para describir información jerárquica. Sin embargo, XML es un lenguaje enormemente limitado que solo sirve para lo que se diseñó: para etiquetar información, donde se especifica una etiqueta de inicio y otra de final. Por ejemplo, una tabla:
<table>
  <tr><td>fila 1</td></tr>
  <tr><td>fila 2</td></tr>
</table>
En MENTAL, podríamos codificarla de la manera siguiente, sustituyendo la forma general
<tag>contenido</tag> 
mediante
contenido/tag
donde tag es una etiqueta. Por ejemplo,

(Esto es un párrafo)/párrafo

Podemos mantener, si queremos, la sintaxis XML mediante la expresión genérica
⟨( <tag>contenido</tag>
=: contenido/tag )⟩
MENTAL es un metalenguaje porque se pueden elegir las etiquetas, como en XML.



Bibliografía